Formation – Métriques & KPIs QA

Mesurer pour mieux piloter votre assurance qualité

Introduction

Les métriques de test sont les instruments de navigation de l’assurance qualité. Elles mesurent la performance et la qualité d’un processus de test, quantifient l’avancement et fournissent des points de repère concrets. Sans mesure, il est impossible de savoir si l’équipe progresse ou si des ajustements sont nécessaires. Au‑delà de la simple impression « ça a été testé », les métriques apportent des réponses factuelles, guident les décisions et permettent de démontrer la valeur de votre travail.

💡 « Vous ne pouvez pas améliorer ce que vous ne pouvez pas mesurer » : retenez cette maxime comme fil conducteur de votre démarche qualité.

Dans cette formation, nous vous proposerons une feuille de route complète pour intégrer les métriques à votre stratégie QA : comprendre la différence entre indicateurs et KPIs, choisir les mesures adaptées à votre contexte, collecter et analyser les données, utiliser des outils pour automatiser et visualiser vos résultats, éviter les pièges courants et apprendre à raconter une histoire avec vos chiffres.

Pourquoi mesurer ?

Les bénéfices des métriques QA sont multiples : elles apportent une connaissance précise du nombre de défauts trouvés et corrigés, diagnostiquent les problèmes, permettent d’identifier les zones à améliorer, prédisent les risques et facilitent la prise de décision. En suivant ces indicateurs, l’équipe peut adapter sa stratégie de test et vérifier si le produit répond aux attentes du client.

Indicateurs vs KPIs

On distingue deux niveaux de mesures :

  • Indicateurs (ou métriques brutes) : il s’agit des données factuelles collectées pendant la campagne (nombre d’exigences, nombre de cas de test, temps passé en conception ou en exécution, nombre de défauts, etc.). Ils représentent l’« état des lieux » de votre activité.
  • KPIs (Key Performance Indicators) : ce sont des indicateurs de performance calculés à partir des données brutes. Ils mesurent l’efficacité d’un processus ou l’atteinte d’un objectif stratégique (par exemple, pourcentage de tests réussis, taux de couverture des exigences ou coût moyen par défaut). Les KPIs traduisent des tendances et servent de boussole pour décider.

Les indicateurs répondent à la question « combien ? » alors que les KPIs répondent à la question « à quel point sommes‑nous efficaces ? ». Par exemple :

  • Nombre de cas de test exécutés (indicateur) permet de savoir combien de scénarios ont été joués.
  • Taux de réussite des tests (KPI) se calcule comme cas de test réussis ÷ cas de test exécutés × 100 et mesure la stabilité du produit.
  • Nombre de défauts trouvés (indicateur) mesure le volume d’anomalies.
  • Densité de défauts (KPI) se calcule comme défauts ÷ (lignes de code ÷ 1 000) et compare la qualité de différents modules.

Comprendre cette distinction vous permettra de sélectionner les bonnes données pour alimenter vos KPIs et d’interpréter correctement vos résultats.

Cycle de vie des métriques

Une métrique n’est pas qu’un chiffre ; c’est un processus vivant qui traverse plusieurs étapes avant de vous aider à piloter votre qualité. Inspiré par le guide de Julien Mer, voici les quatre phases du cycle :

  • Analyse : identifier ce qu’il faut mesurer selon vos objectifs (par exemple, réduire les défauts post‑production ou optimiser la productivité de l’équipe) et définir la cible à atteindre.
  • Communication : expliquer à toutes les parties prenantes pourquoi la métrique est utile, comment elle est calculée et comment elle sera utilisée. Cet alignement évite les incompréhensions et favorise l’adhésion.
  • Quantification : collecter et calculer la métrique à intervalle régulier, en respectant les formules et le périmètre défini. Assurez‑vous de la fiabilité des outils et de la cohérence des données.
  • Reporting : présenter les résultats sous forme de rapports ou tableaux de bord, tirer des conclusions et proposer des actions. Les rapports doivent être adaptés à leur public : synthétiques pour la direction, détaillés pour l’équipe.

Classes de métriques

Pour mieux choisir vos indicateurs, il est utile de connaître les différentes catégories de métriques utilisées en QA :

  • Métriques de processus : évaluent l’efficacité de votre démarche de test (productivité, temps passé, respect des procédures). Elles guident l’amélioration continue et mettent en évidence les étapes à optimiser.
  • Métriques de produit : reflètent la qualité intrinsèque du logiciel (densité de défauts, performance, fiabilité). Elles permettent de juger si le produit répond aux exigences et aux attentes des utilisateurs.
  • Métriques de projet : mesurent la progression et l’atteinte des objectifs (couverture des tests, taux de défauts corrigés, part de tests automatisés). Elles aident à piloter le planning et à anticiper les risques.
  • Métriques humaines : se concentrent sur les membres de l’équipe (nombre de défauts détectés par testeur, efficacité de revue). Elles servent à identifier des besoins en formation ou à répartir les tâches, mais ne doivent pas être utilisées à des fins de micro‑management.
  • Métriques avancées : on distingue également les indicateurs « leading » (proactifs : couverture, statut des tests) qui permettent d’agir avant qu’un problème n’apparaisse, et les indicateurs « lagging » (rétrospectifs : défauts échappés, densité de défauts) qui servent à analyser les résultats. Enfin, on parle de métriques absolues (valeurs brutes) et dérivées (calculées à partir des premières) : cette distinction structure les catégories présentées dans l’onglet « Exemples ».

Indicateurs clés

La synthèse ci‑dessous présente les indicateurs essentiels issus du référentiel de Julien Mer. Pour faciliter l’analyse, on peut les regrouper en trois grandes familles :

  • Exigences & tests : tout ce qui décrit le périmètre (exigences totales, exigences couvertes) et le volume de tests (cas de test écrits, exécutés, réussis, échoués, bloqués).
  • Temps & effort : ce qui mesure l’activité de l’équipe (temps de conception, de revue, d’exécution) et l’effort global.
  • Défauts & correctifs : nombres de défauts trouvés, critiques, acceptés, rejetés, différés, résolus, ainsi que les défauts détectés après livraison.

Voici un tableau qui rassemble ces familles et quelques exemples d’indicateurs :

Famille Exemples d’indicateurs
Exigences & tests Nombre d’exigences (total/testées), cas de test totaux/conçus/exécutés, cas de test réussis/échoués/blocages
Temps & effort Temps de conception et de revue, temps d’exécution, effort global (conception + exécution)
Défauts & correctifs Défauts trouvés/acceptés/rejetés/différés, défauts critiques, défauts résolus et temps de résolution, défauts post‑livraison

Dans le détail, cela donne :

  • Exigences & tests :
    • Nombre d’exigences (total/testées) : périmètre du produit et part couverte par les tests.
    • Cas de test totaux/conçus/exécutés : volume de travail et progression de la campagne.
    • Cas de test réussis/échoués/blqués : base pour calculer les taux de réussite et d’échec.
  • Temps & effort :
    • Temps de conception et de revue des tests : effort pour préparer la campagne.
    • Temps d’exécution des tests : durée réelle de la campagne.
    • Effort global : somme du temps de conception et d’exécution.
  • Défauts & correctifs :
    • Défauts trouvés, acceptés, rejetés et différés : mesures de la gestion des anomalies.
    • Défauts critiques : anomalies bloquantes ou à fort impact.
    • Défauts résolus et temps de résolution : efficacité de l’équipe à corriger les bugs.
    • Défauts post‑livraison : anomalies détectées après mise en production.

Ces indicateurs se combinent pour former les KPIs présentés plus loin. Collectez‑les régulièrement et mettez‑les en perspective avec les objectifs du projet.

KPIs essentiels

À partir des indicateurs, on peut calculer plusieurs KPIs pour piloter la performance. Chaque KPI est associé à une formule et à un objectif :

  • Taux de réussite des tests : tests réussis ÷ tests exécutés × 100. Un taux élevé (> 90 %) indique une bonne stabilité.
  • Taux d’échec des tests : tests échoués ÷ tests exécutés × 100. Un taux élevé signale des spécifications imprécises ou des erreurs de développement.
  • Taux de tests bloqués : tests bloqués ÷ tests exécutés × 100. Cet indicateur mesure l’impact des dépendances et de la préparation des environnements.
  • Taux de défauts corrigés : défauts corrigés ÷ défauts totaux × 100. Un faible pourcentage peut indiquer un manque de ressources ou un mauvais triage.
  • Taux de défauts rejetés : défauts rejetés ÷ défauts totaux × 100. Il évalue la qualité de la qualification des tickets.
  • Taux de défauts critiques : défauts critiques ÷ défauts totaux × 100. Un seuil acceptable dépend du domaine (par exemple, < 5 % dans la finance).
  • Taux de défauts échappés : défauts post‑production ÷ défauts totaux × 100. Vise à être le plus faible possible ; c’est l’un des indicateurs de satisfaction client.
  • Couverture des exigences : exigences testées ÷ exigences totales × 100. Doit approcher 100 % à la fin du sprint ou du cycle.
  • Part de tests automatisés : tests automatisés ÷ tests totaux × 100. Mesure la capacité de votre chaîne à exécuter rapidement des régressions.
  • Temps moyen de résolution : ∑ temps de correction ÷ nombre de défauts corrigés. Un KPI essentiel pour suivre la réactivité de l’équipe.
  • Densité de défauts : défauts ÷ (lignes de code ÷ 1 000). Permet de comparer la qualité entre modules.

Choisissez vos KPIs en fonction du stade du projet et de vos priorités (risques, coûts, délais). Par exemple, en début de développement, privilégiez les indicateurs de couverture et de détection des défauts ; lors de la stabilisation, surveillez le taux de réussite et le taux de défauts échappés.

Choisir et mettre en place ses métriques

La sélection de vos métriques est une démarche stratégique. Ne vous contentez pas de reprendre un catalogue générique : adaptez‑les à votre contexte et à vos objectifs. Voici une méthode pas à pas :

  1. Définir vos objectifs : décidez pourquoi vous mesurez. S’agit‑il de réduire le nombre de défauts critiques, d’accélérer les cycles de livraison, de minimiser les coûts ? Classez vos priorités selon les attentes des utilisateurs et les contraintes du projet.
  2. Identifier les risques : analysez les modules ou fonctionnalités à haut risque (criticité métier, complexité technique, fréquence d’utilisation). Pour ces zones sensibles, choisissez des métriques de couverture et de détection adaptées.
  3. Choisir des indicateurs pertinents : sélectionnez un mélange de métriques de processus (temps, effort), de produit (qualité, performance) et de projet (progression, couverture). Limitez‑vous à quelques indicateurs actionnables plutôt que de tout mesurer.
  4. Définir le rythme et le format : décidez de la période d’observation (quotidienne, hebdomadaire, sprint, release) et du format de rapport (tableau de bord visuel, rapport synthétique, réunion de revue).
  5. Automatiser la collecte : utilisez votre outil de gestion de tests, un pipeline CI/CD ou des scripts pour rassembler les données (durées, pass/fail, couverture). Cela garantit la fiabilité et évite les saisies manuelles.
  6. Impliquer les parties prenantes : expliquez les métriques choisies aux développeurs, testeurs, Product Owner et managers. Assurez‑vous qu’ils les comprennent et qu’ils y adhèrent.
  7. Réviser régulièrement : ajustez vos métriques en fonction de l’évolution du projet et des retours d’expérience. Ce qui est pertinent en phase de cadrage ne l’est plus forcément en phase de stabilisation.

Cette approche vous aidera à choisir des métriques sur mesure et à construire un système de suivi efficace.

Tableau de bord

Le tableau de bord est l’outil central pour visualiser vos indicateurs et KPIs. Il doit être clair, orienté action et mis à jour régulièrement. Pour qu’il soit efficace :

  • Choisissez les bonnes représentations : utilisez des courbes pour suivre une tendance au fil du temps (taux de réussite, densité de défauts), des histogrammes pour comparer des valeurs (couverture des exigences par module) et des camemberts pour visualiser la répartition (défauts par priorité).
  • Hiérarchisez l’information : placez les indicateurs les plus critiques en haut de votre dashboard et regroupez les données par thématiques (qualité, efficacité, coûts).
  • Fixez des seuils : associez vos KPIs à des objectifs métier (par exemple, taux de défauts critiques < 3 %, couverture des exigences > 90 %, temps moyen de résolution < 2 jours) et mettez en évidence les dépassements par des couleurs ou des icônes.
  • Facilitez l’exploration : prévoyez des filtres (par version, module, équipe) pour que chacun puisse accéder aux informations qui le concernent.
  • Documentez vos KPIs : chaque indicateur doit être accompagné de sa définition et de sa formule afin d’éviter les interprétations erronées.
👉 Un bon tableau de bord est celui qui permet à l’équipe de prendre des décisions rapides : arrêter une release, allouer plus de ressources ou revoir la stratégie de test. Évitez de noyer vos interlocuteurs sous une avalanche de chiffres et privilégiez la lisibilité et l’action.

Outils & techniques

Pour faciliter la collecte et l’analyse des métriques, appuyez‑vous sur des outils adaptés :

  • Outils de gestion de tests (TMS) : des plateformes comme Testomat.io, Xray, Zephyr ou TestRail centralisent vos cas de test, enregistrent automatiquement les exécutions et génèrent des rapports. Elles proposent des tableaux de bord configurables, la traçabilité des exigences et des API pour l’intégration avec vos pipelines.
  • Intégration continue / Déploiement continu (CI/CD) : intégrer vos tests à une pipeline (GitHub Actions, GitLab CI, Jenkins, Azure DevOps) permet d’exécuter les campagnes à chaque build ou demande de fusion. Les résultats remontent automatiquement et alimentent vos indicateurs en temps réel.
  • Outils de visualisation et de BI : des solutions comme Excel, Power BI, Google Data Studio, Tableau ou Grafana transforment vos données en graphiques interactifs. Elles permettent de créer des tableaux de bord dynamiques, de filtrer les données et de partager facilement les rapports.
  • Scripts et plugins d’automatisation : des scripts Python, des extensions de votre TMS ou des plugins de pipeline peuvent collecter les indicateurs (durées, pass/fail, couverture) et les envoyer vers votre base de données ou votre outil de BI. Automatisez dès que possible pour éviter les erreurs manuelles et gagner du temps.
  • Gestion des données : utilisez des solutions de stockage (bases SQL, fichiers CSV/JSON) pour conserver vos métriques et faciliter leur exploitation historique. Attention à la confidentialité des données (respect du RGPD).

Choisissez vos outils en fonction de votre stack (Java, .NET, Python), de votre organisation (cloud ou on‑premise) et de votre budget (open source vs licences). L’objectif est d’obtenir un flux de données automatisé, fiable et exploitable.

Pièges à éviter

Quelques erreurs courantes peuvent nuire à la pertinence de vos mesures :

  • Mesurer pour mesurer : multiplier les indicateurs sans objectif précis finit par diluer l’information et saturer les équipes. Concentrez‑vous sur un ensemble restreint de métriques actionnables.
  • Ignorer le contexte : un taux d’échec élevé peut être dû à des prérequis manquants ou à des tests non stabilisés, pas nécessairement à une mauvaise qualité logicielle. Interprétez toujours les chiffres avec le recul nécessaire.
  • Comparer l’incomparable : évitez de comparer deux équipes, deux modules ou deux produits sans tenir compte de la taille, de la complexité ou du niveau de maturité. Utilisez des normes communes ou des ratios pour rendre les comparaisons pertinentes.
  • Utiliser des métriques de vanité : certains indicateurs sont flatteurs mais inutiles (par exemple, nombre total de tests écrits). Privilégiez des métriques qui vous aident à prendre des décisions.
  • Manipuler les chiffres : n’ajustez pas vos métriques pour “faire bonne figure”. Mieux vaut identifier les problèmes et les résoudre plutôt que de falsifier les données.
  • Exercer un micro‑management : ne transformez pas les métriques en outil de surveillance individuelle. Elles servent à piloter un processus et à améliorer l’équipe, pas à pointer des personnes.

Storytelling des données

Au‑delà des chiffres, l’art du storytelling permet de convaincre et d’aligner les parties prenantes. Présenter des données ne suffit pas : il faut savoir les interpréter et les transformer en récit compréhensible et engageant.

  • Construisez un fil narratif : commencez par rappeler l’objectif (qualité, risque, budget), puis montrez les tendances (améliorations, points d’alerte) et terminez par des actions proposées. Une bonne histoire suit une structure : contexte → problème → solution → bénéfice.
  • Simplifiez et contextualisez : privilégiez quelques indicateurs clés et illustrez‑les avec des graphiques parlants. Expliquez ce qu’ils signifient pour l’utilisateur ou le métier (« une couverture de 60 % signifie que 40 % des fonctionnalités restent à tester »).
  • Adaptez votre langage : ne présentez pas les mêmes détails à un développeur, un manager ou un client. Le développeur a besoin de savoir quel module est impacté, le manager veut connaître le risque global, le client s’intéresse à la fiabilité du produit.
  • Reliez les métriques aux objectifs business : montrez comment l’amélioration d’un KPI (réduction des défauts échappés, augmentation de la couverture) se traduit par une meilleure satisfaction client, des économies ou une mise sur le marché plus rapide.
  • Facilitez la prise de décision : chaque slide ou tableau doit conduire à une conclusion claire : continuer, corriger, prioriser, investir. Proposez des actions concrètes pour améliorer les métriques.

Conclusion

Les métriques et KPIs transforment l’assurance qualité en une démarche factuelle et orientée décision. En identifiant les bons indicateurs, en les suivant régulièrement et en les reliant à vos objectifs, vous améliorerez la fiabilité de vos logiciels et la confiance de vos utilisateurs.

Exemples d’indicateurs & KPIs

Cette section regroupe toutes les métriques en catégories, comme dans votre article de référence. Chaque carte rassemble plusieurs indicateurs avec leurs formules et objectifs.

Indicateurs fondamentaux

Exigences & cas de test

Exigences totales / testées : mesure le périmètre global et la couverture initiale.

Cas de test : nombre total, conçus, revus et exécutés. Suivre ces valeurs permet de planifier la charge et de contrôler l’avancement.

Statut des tests : réussis, échoués et bloqués – base pour calculer les taux de réussite ou d’échec.

Temps & défauts

Temps de conception / revue / exécution : effort pour préparer et exécuter les tests.

Défauts : trouvés, acceptés, rejetés, différés, critiques et résolus – ces compteurs alimentent les indicateurs de traitement des anomalies.

Défauts post‑livraison : anomalies découvertes en production, à minimiser pour préserver la satisfaction utilisateur.

Efficacité & suivi

Taux de réussite

Formule : Tests réussis ÷ Tests exécutés × 100

Mesure la stabilité globale du produit ; un taux élevé témoigne d’une application fiable.

Taux d’échec

Formule : Tests échoués ÷ Tests exécutés × 100

Signale un manque de qualité ou des exigences incomplètes. Un taux élevé nécessite une analyse approfondie.

Tests bloqués

Formule : Tests bloqués ÷ Tests exécutés × 100

Évalue l’impact des dépendances et de la disponibilité des environnements sur la campagne de test.

Défauts résolus

Formule : Défauts corrigés ÷ Défauts totaux × 100

Indique l’efficacité de l’équipe à éliminer les anomalies ; un faible pourcentage peut signaler des retards.

Défauts rejetés

Formule : Défauts rejetés ÷ Défauts totaux × 100

Reflète la robustesse du processus de gestion des anomalies ; un taux élevé montre que les tickets sont bien triés.

Défauts différés

Formule : Défauts différés ÷ Défauts totaux × 100

Mesure la part des anomalies reportées à une itération ultérieure, souvent par manque de temps ou de priorité.

Défauts critiques

Formule : Défauts critiques ÷ Défauts totaux × 100

Évalue la gravité des anomalies rencontrées ; un taux élevé doit déclencher une alerte avant la mise en production.

Temps moyen de résolution

Formule : Somme des temps de correction ÷ Nombre de défauts corrigés

Analyse la réactivité de l’équipe et aide à identifier les goulots d’étranglement dans la résolution des bugs.

Défauts échappés

Formule : Défauts post‑production ÷ Défauts totaux

Mesure l’efficacité de votre stratégie de test. Un taux bas indique une bonne couverture et une bonne maîtrise des risques.

Efficacité des tests

Formule : Défauts corrigés ÷ (Défauts corrigés + Défauts post‑production) × 100

Rapporte la proportion d’anomalies détectées et résolues pendant la campagne par rapport à l’ensemble des défauts constatés.

Processus & efficience

Efficacité d’exécution

Formule : Temps réellement passé à exécuter les tests ÷ Temps total de campagne × 100

Mesure l’utilisation efficace des ressources pendant l’exécution ; un faible taux met en évidence des temps d’attente ou de blocage.

Efficacité de conception

Formule : Nombre de tests conçus ÷ Temps de conception

Évalue la productivité pendant la phase de design des cas de test et aide à dimensionner l’équipe.

Efficacité de revue

Formule : Nombre de tests revus ÷ Temps de revue

Met en lumière la qualité et la rapidité du processus de revue des cas de test.

Taux de défauts par heure

Formule : Défauts détectés ÷ Durée d’exécution des tests

Évalue la densité d’anomalies trouvées par unité de temps ; utile pour comparer des périodes ou des modules.

Bugs par cas de test

Formule : Défauts totaux ÷ Cas de test exécutés

Donne une estimation du nombre moyen de défauts détectés par scénario et permet d’identifier des cas de test inefficaces.

Effort global

Formule : Durée de conception + Durée d’exécution

Permet d’estimer le volume d’effort nécessaire à une campagne et de négocier les ressources en conséquence.

Couverture

Couverture des exigences & tests

Couverture des exigences : (exigences testées ÷ exigences totales) × 100 – évalue la proportion d’exigences vérifiées.

Couverture de l’exécution : (cas de test exécutés ÷ cas de test totaux) × 100 – montre la progression de la campagne par rapport au plan.

Couverture par unité : nombre de tests réalisés par module ou fonctionnalité – permet de détecter les zones sur‑ ou sous‑testées.

Non‑couverture : 100 – couverture des exigences – identifie les fonctionnalités non prises en compte.

Coûts

Coût des tests & des défauts

Coût estimé des tests : (temps prévu de conception + temps prévu d’exécution) × coût horaire du testeur.

Coût moyen par exigence : coût total estimé ÷ nombre d’exigences testées – surveille l’effort par fonctionnalité.

Coût réel & total de la campagne : temps réel de test + temps de relecture + temps de re‑jeu × coût testeur + temps de correction × coût développeur.

Coût des défauts : (temps de correction × coût développeur) + (temps de re‑jeu × coût testeur) – quantifie l’impact financier d’une anomalie.

Automatisation & densité

Automatisation & densité de défauts

Part de tests automatisés : (tests automatisés ÷ tests totaux) × 100 – mesure l’automatisation et l’efficacité de la chaîne d’intégration.

Densité de défauts : nombre de défauts ÷ (lignes de code ÷ 1 000) – permet de comparer la qualité entre modules de taille différente.

Fiabilité des tests automatisés : nombre de tests instables ÷ tests automatisés – suit la stabilité et les phénomènes de « flakiness ».

Exercice guidé : calculer vos KPIs

Dans cet exercice, vous allez calculer plusieurs KPIs à partir de données simples. Munissez‑vous d’une feuille ou d’un tableur et suivez les étapes ci‑dessous.

Étape 1 : collecte des données

Supposez que votre équipe doit valider une application comportant 40 exigences.

  • 30 exigences sont couvertes par des tests.
  • Vous avez conçu 120 cas de test et en avez exécuté 100.
  • Parmi ceux exécutés : 75 ont réussi, 15 ont échoué et 10 sont bloqués.
  • 20 défauts ont été trouvés au total, dont 4 critiques. 15 défauts sont corrigés, 3 sont rejetés et 2 sont différés.
  • Après la livraison, 2 défauts supplémentaires sont découverts en production.

Étape 2 : calcul des indicateurs

Calculez les indicateurs suivants :

  • Nombre d’exigences testées et couverture (%) : 30 / 40 × 100.
  • Nombre de cas de test exécutés, réussis, échoués, bloqués.
  • Nombre de défauts trouvés, critiques, corrigés, rejetés et différés.

Étape 3 : calcul des KPIs

À l’aide des formules vues précédemment :

  • Taux de réussite = 75 / 100 × 100.
  • Taux d’échec = 15 / 100 × 100.
  • Taux de tests bloqués = 10 / 100 × 100.
  • Taux de défauts critiques = 4 / 20 × 100.
  • Taux de défauts échappés = 2 / 22 × 100 (en incluant les défauts post‑production).
  • Couverture des exigences = 30 / 40 × 100.
  • Part de tests automatisés : si 60 tests sont automatisés sur les 120 prévus, la part est 60 / 120 × 100.

Étape 4 : analyse

Interprétez vos résultats. Par exemple : un taux de réussite de 75 % est‑il suffisant ? Quel plan d’action pour réduire les échecs et les blocages ? Comment améliorer la couverture des tests ?

Vous pouvez reproduire cet exercice avec vos propres données et construire un tableau de bord pour suivre l’évolution de ces indicateurs au fil des sprints.

Ressources complémentaires

Pour aller plus loin, consultez les références suivantes :

N’oubliez pas d’adapter vos métriques à votre contexte et de faire participer votre équipe à la définition de ces indicateurs.